Although many machine learning methods, especially from the field of deep learning, have been instrumental in addressing challenges within robotic applications, we cannot take full advantage of such methods before these can provide performance and safety guarantees. The lack of trust that impedes the use of these methods mainly stems from a lack of human understanding of what exactly machine learning models have learned, and how robust their behaviour is. This is the problem the field of explainable artificial intelligence aims to solve. Based on insights from the social sciences, we know that humans prefer contrastive explanations, i.e.\ explanations answering the hypothetical question "what if?". In this paper, we show that linear model trees are capable of producing answers to such questions, so-called counterfactual explanations, for robotic systems, including in the case of multiple, continuous inputs and outputs. We demonstrate the use of this method to produce counterfactual explanations for two robotic applications. Additionally, we explore the issue of infeasibility, which is of particular interest in systems governed by the laws of physics.
translated by 谷歌翻译
Self-trained autonomous agents developed using machine learning are showing great promise in a variety of control settings, perhaps most remarkably in applications involving autonomous vehicles. The main challenge associated with self-learned agents in the form of deep neural networks, is their black-box nature: it is impossible for humans to interpret deep neural networks. Therefore, humans cannot directly interpret the actions of deep neural network based agents, or foresee their robustness in different scenarios. In this work, we demonstrate a method for probing which concepts self-learning agents internalise in the course of their training. For demonstration, we use a chess playing agent in a fast and light environment developed specifically to be suitable for research groups without access to enormous computational resources or machine learning models.
translated by 谷歌翻译
如果预测模型确定了脆弱的个人或群体,则该模型的使用可能成为道德问题。但是我们能知道这就是模型的作用吗?机器学习公平作为一个领域的重点是通过机器学习方法对信息处理的个人和群体的公正处理。尽管已经非常关注缓解受保护群体的歧视,但脆弱的群体并未受到相同的关注。与受保护的群体不同,这些群体可以被视为总是脆弱的,一个脆弱的群体在一种情况下可能是脆弱的,而在另一种情况下却不是脆弱的。这引发了有关如何以及何时保护机器学习中脆弱的个人和团体的新挑战。相比之下,来自可解释的人工智能(XAI)的方法确实考虑了更多的上下文问题,并关注回答“为什么做出这一决定?”的问题。现有的公平性和现有的解释性方法都不允许我们确定预测模型是否确定漏洞。我们讨论了这个问题,并提出了在这方面分析预测模型的方法。
translated by 谷歌翻译
我们调查在发电解释时包括域名知识对机器人系统的因果关系的影响。为此,我们比较了两个方法,可解释的人工智能,流行的Kernelshap和最近的因果形状,在使用深度加强学习使用机器人操纵器控制杠杆的任务训练的深度神经网络上。 Kernelshap的主要缺点是其解释仅代表了对模型输出的功能的直接影响,而不是考虑到通过影响其他特征来对输出具有输出的间接效果。因果形状使用部分因果关系来改变Kernelshap的采样过程来包含这些间接效应。这种部分因果关系定义了功能之间的因果关系,并且我们使用关于杠杆控制任务的域知识来指定此问题。我们展示了解释方法,以解释间接效应并纳入一些域知识可以导致更好地与人类直觉同意的解释。这对真实世界的机器人专业任务特别有利,在游戏中存在相当大的因果关系,此外,所需的域知识通常可以充分利用。
translated by 谷歌翻译
在背景主导的情况下,通过机器学习和信号和背景之间的可观察者之间的高度重叠来调查LHC在LHC的新物理搜索的敏感性。我们使用两种不同的型号,XGBoost和深度神经网络,利用可观察到之间的相关性,并将这种方法与传统的切割方法进行比较。我们认为不同的方法来分析模型的输出,发现模板拟合通常比简单的切割更好地执行。通过福芙氏分解,我们可以额外了解事件运动学与机器学习模型输出之间的关系。我们认为具有亚霉素的超对称场景作为一个具体示例,但方法可以应用于更广泛的超对称模型。
translated by 谷歌翻译
虽然道德人工智能(AI)系统的需求增加,但AI加速的不道德使用的数量,即使没有道德准则不足。我们认为这是一个可能的潜在的原因是,AI开发人员在AI发展伦理中面临社会困境,防止了对道德最佳实践的广泛适应。我们为AI开发的社交困境定义了社会困境,并描述了为什么无法解决AI开发道德的当前危机,而无需缓解其社交困境的AI开发人员。我们认为AI开发必须专业为克服社会困境,并讨论如何在此过程中用作模板。
translated by 谷歌翻译
发现采用时间分离技术(TST)的基于模型的重建可以使用C臂锥束计算机断层扫描(CBCT)改善肝脏的动态灌注成像。要使用从CT灌注数据中提取的先验知识应用TST,应从CT扫描中准确分割肝脏。需要对主要和基于模型的CBCT数据进行重建,以正确可视化和解释灌注图。这项研究提出了Turbolift Learning,该学习按照培训CT,CBCT,CBCT,CBCT TST的顺序训练多尺度关注的多尺度注意力,UNET串行序列上的不同肝脏细分任务 - 使先前的培训作为前培训作为预训练阶段的阶段随后的问题 - 解决培训数据集数量有限的问题。对于CBCT TST的肝脏分割的最终任务,提议的方法的总骰子得分为0.874 $ \ pm $ 0.031和0.905 $ \ pm $ \ $ \ $ 0.007,分别为6倍和4倍的交叉验证实验 - 获得统计上显着的改进 - 在模型上,该模型仅接受该任务。实验表明,涡轮增压不仅提高了模型的整体性能,而且还使其与源自栓塞材料和截断物品的人工制品具有稳健性。此外,深入分析确认了分割任务的顺序。本文显示了从CT,CBCT和CBCT TST分割肝脏的潜力,从可用的有限培训数据中学习,将来可能会用于可视化和评估灌注图的肝病评估。 。
translated by 谷歌翻译